iT邦幫忙

2022 iThome 鐵人賽

DAY 10
1
AI & Data

TensorFlow 系列 第 10

[Day10] 激勵函式activation function

  • 分享至 

  • xImage
  •  

Hi ! Day10 !

今天要介紹人工神經網路中常用的3個激勵函式:ReLU、sigmoid、tanh

ReLU (Rectified Linear Unit)

線性整流函式,又稱修正線性單元
https://ithelp.ithome.com.tw/upload/images/20220925/20152603MLMeNwn6Nl.png
https://ithelp.ithome.com.tw/upload/images/20220925/20152603ngDlq0NMy4.png


Sigmoid

S型函數,或稱乙狀函數
https://ithelp.ithome.com.tw/upload/images/20220925/20152603WzsioDy7dq.pnghttps://ithelp.ithome.com.tw/upload/images/20220925/20152603zIG5e1mkVZ.png


TanH

雙曲函數
https://ithelp.ithome.com.tw/upload/images/20220925/20152603YaWkg3cJww.png
https://ithelp.ithome.com.tw/upload/images/20220925/201526036UjarEG5EC.png


Reference

https://www.wpgdadatong.com/tw/blog/detail/42350

https://blog.51cto.com/u_15441799/4718281

https://zh.wikipedia.org/wiki/线性整流函数

https://zh.wikipedia.org/zh-tw/S型函数

https://zh.wikipedia.org/wiki/双曲函数


上一篇
[Day9] TensorFlow Playground
下一篇
[Day11] Kaggle 介紹
系列文
TensorFlow 30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言